16 - Pattern Analysis [ID:5199]
50 von 609 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Ich glaube, jetzt starten wir offiziell, oder? Spulen Sie nochmal zurück.

So currently we talk about manifold learning. So we consider the problem, how can we transform

high dimensional features to lower dimensional features spaces, where they basically maintain

the topology of the features and the feature space. And why do we need to have a feature

transform into lower dimensional spaces? There are several reasons why that makes sense. One major

Reason ist, dass in high dimensional spaces, wir meistens den Kurs der Dimensionen kämpfen müssen.

Also ist es eine gute Wahl, zu unter die lower dimensional spaces zu gehen. Und ein weiteres Problem ist,

dass die Effizienz, um mit dem Lower Dimensional Features zu arbeiten, natürlich weniger

Computationen zu machen. Und es gibt viele gute Reasons, um Dimensionen zu reduzieren.

Dimensionenreduktion. Und zuerst werden wir PCA bezeichnen, das ist die Prinzipik von

Component Analysis. Das war die Idee, die Features zu projektieren in einem höheren

Dimensionen-Space, so dass die projekten Features die Variante maximieren. Oder die Verschwindung.

Das ist die Idee, die Maximierung der Feature-Sprache in der Projektions-Space zu machen.

Das ist das einzige, was Sie in den nächsten 80 Jahren erinnern müssen, wenn Sie mit diesen

Features zu tun sind. Wenn Sie wissen, dass Sie die Verschwindung maximieren wollen, müssen Sie es nur

in Mathematik formulieren. Schreibt die Optimisierung-Probleme her.

Bekomme das erste Derevative und die 0-Kurse. Das ist es.

Immer das selbe. Und dann schauen wir uns das folgende Problem an, dass wir

die Features in hochdiamantialen Spacen manipulieren, und wir bezeichnen die Lernung.

Wenn Sie die Situation haben, dass die Features auf der Führung einer Sphäre sitzen,

das ist ein zweidimensionales Sub-Space in der dreidimensionalen Welt.

Und was Sie tun wollen, ist, dass Sie die Features transformieren wollen, dass alle Features in einem zweidimensionalen

Spacenmaterial sind. Wenn Sie sich die Erde und die geografischen Mappen ansehen, dann machen wir das genau so.

Wir versuchen, die Erde, die Führung der Erde, auf einer 2D-Planeten zu mapieren.

Und Sie haben in der Schule, in der Geografie, verschiedene Typen dieser geodesischen Mappen studiert.

Was wir letzte Woche gesehen haben, waren zwei Algorithmen.

Ein Algorithm, der wichtig für die Dimenzierung ist, ist das MDS-Algorithm.

Die Idee des MDS-Algorithms ist, dass Sie Punkte haben und dass Sie eine Dichtung haben,

und so weiter. Und Sie haben eine Dichtungsmatrix, d².

Diese sind die dünnsten Dichtungen der Punkte.

Das Problem ist, dass Sie in einem zweidimensionalen Spacenmaterial die Differenz der Punkte, der Stadt,

beispielsweise, haben und Sie die Punkte in einem zweidimensionalen Spacenmaterial komputieren wollen,

die so nahe wie möglich die Dichtungsmatrix erfüllen.

Und was haben wir gemacht, um das zu lösen? Wir hatten diesen magischen Trick,

mit welcher Matrix war es? Der sogenannte Zentrenmatrix.

Viele von Ihnen waren sehr unglücklich mit dem Zentrenmatrix. Und was haben wir gemacht?

Wir haben d² mit einer Zentrenmatrix verformt. Wie habe ich es letzte Woche genannt? C?

Wir haben von links und rechts verbreitet, mit minus 1 verbreitet.

Und was war das Ergebnis? Das war eine Matrix der Punkte, die wir suchen.

Das war x x-transposed, oder x-transposed x,

aufgrund von dem, wie Sie sie absortieren, um konsistent zu sein.

x-transposed x.

Das ist die Dichtungsmatrix, die magische Zentrenmatrix, die 1 über n war,

1 verbreitet, die 1-Matrix dort. Und wenn Sie diese Dichtungsmatrix verbreiten,

oder wenn Sie die Zentrenmatrix von links und rechts verbreitet,

bekommen Sie x-transposed x. Und was wir interessiert sind, sind die Punktkoordinatoren

in einem vorgezeichneten Raum.

Wir sagen, fünf-Dimensional-Space, zweidimensional-Space, ein-Dimensional-Space.

Mit diesem haben wir ein Produkt der Punkte, die wir suchen.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:11:59 Min

Aufnahmedatum

2015-06-22

Hochgeladen am

2015-06-22 14:07:23

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen